Linear Regression
# Tag:
- Source/KU_ML
정# 선형 회귀 모형(Linear Regression Model)
이 때, 주어진 데이터로부터 최소 제곱 추정법(Least Squares estimation)등을 이용하여 추정량을 구한다. Y는 가설 함수가 된다.
- : weight
- : bias
이 때의 오차 항()은 Guassian Distribution를 따르며, 모든 관찰치에서 일정해야 하는 등분산성을 가진다.
통계적 가설(Hypothesis)에서는
- 귀무가설():
- 대립가설():
Solution
의 데이터 집합이 주어졌을 때,
1. 최소 제곱법(Least Squares)
선형대수 상에서의 Least Square 문제로 확장 가능하지만, 단순 선형회귀
를 최소화 시키는 문제로 본다.
-
기울기 :
-
y절편 :
Residual error in term of Matrix(vector)
이므로, residual error 이고, 이 error을 최소화시켜야 한다. (, 은 를 위한 term이 된다.)
를 최소화하는, 그러한 를 찾아야 한다.
이는 잔 차제곱합(RSS: residual sum of squares)가 된다. 이는 Least Squares의 유도 방법과 동일하다.
이를 이용해 유도하면, 그 최적의 는
이는 당연히, Multivariate Distribution에 대해서도 성립한다.
2. MSE(Mean Squared Error), loss function
MSE를 제일 작게 만드는 Linear regression line을 구한다.
- 이 MSE와 기울기 간의 관계에서, 이차함수의 그래프가 나오게 되며, MSE가 최소화 되는 을 구하기 위해 Gradient Descent를 이용한다.
- MSE 식에 대해, 의 편미분을 통해 그 이차함수를 구한다.
- 역시 마찬가지이며, 최적의 값을 구하기 위해 Gradient Descent를 이용한다.
3. [[MLE]]
Let .
위의 두 식을 연립하면,
- : : 최소 제곱법의 문제와 동일하게 성립됨이 보인다.
4. For Multivariate Distribution Linear Regression
, : 이 때 로 가정하여 inner product를 나타낸다.
: 의 식으로 치환되고, 이는 Matrix 관점에서 나타낼 수 있다.
: paramter 를 찾을 수 있다.